[程序员] OpenCode GO 已上线 deepseek v4
5 小时限额 pro 1300 次, flash 7450 次 理论上可以用于其他工具比如 claude code ,opencode 说 go 可以用于第三方。
deepseek v4 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第13页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 560 篇相关文章 · 第 13 / 28 页
5 小时限额 pro 1300 次, flash 7450 次 理论上可以用于其他工具比如 claude code ,opencode 说 go 可以用于第三方。
5 小时限额 pro 1300 次, flash 7450 次 理论上可以用于其他工具比如 claude code ,opencode 说 go 可以用于第三方。
5 小时限额 pro 1300 次, flash 7450 次 理论上可以用于其他工具比如 claude code ,opencode 说 go 可以用于第三方。
5 小时限额 pro 1300 次, flash 7450 次 理论上可以用于其他工具比如 claude code ,opencode 说 go 可以用于第三方。
早上起来拉取了一下ollama cloud的模型列表,惊喜的发现v4pro已经上了,连忙测试了一下,发现速度也快的惊人,让人很是喜悦啊! 但很快我就发现不对劲,不管是太阳系模拟还是魔方居然都无法好好完成,跟我用deepseek官方测试的简直是天壤之别 然后我意识到了,不会是压根没
5 小时限额 pro 1300 次, flash 7450 次 理论上可以用于其他工具比如 claude code ,opencode 说 go 可以用于第三方。
5 小时限额 pro 1300 次, flash 7450 次 理论上可以用于其他工具比如 claude code ,opencode 说 go 可以用于第三方。
gpt image 2还是太好用了() 2 个帖子 - 2 位参与者 阅读完整话题
诸位大佬,问一下DeepSeek V4目前国内有几家Coding Plan有的? 周一我要建议公司采购一批非API得Coding Plan来顶着了,这个月预算花不完了,感谢诸位大佬 14 个帖子 - 8 位参与者 阅读完整话题
从 一个弱智题目,DeepSeek v4是唯一一个完全错误的 继续讨论: 本来就是切死一个小朋友才能平分,照 ds 的切法反而不行了。 https://chat.deepseek.com/share/q1n0fd7k95rquabdjx 6 个帖子 - 6 位参与者 阅读完整话题
gpt plus / claude pro 订阅用户 TLDR 个人感觉 有gpt plus的基本不用考虑V4 有claude pro平时只用sonnet的可以考虑替换 据说V4 pro后训练还没有完成 等待正式版 V4 接 opencode感觉效果一般 接cc很好 同一个复杂的
主要是编程,酒馆实际体验,不止跑分。 类似参数的模型还有 Minimax M2.7(229B) Xiaomi Mimo 2.5 Flash(309B) Qwen 3.6 Plus(397B) 在这个级别的模型里,能是最强的吗? 7 个帖子 - 7 位参与者 阅读完整话题
Pro和Flash均已支持调用,可能是因为晚上没人用,吐字还是挺快的。 模型ID分别是 deepseek-ai/DeepSeek-V4-Pro deepseek-ai/DeepSeek-V4-Flash 看来魔搭还不够出名 啊: 魔搭提供日均2000次免费调用,单模型限制日均50
应该是目前最便宜的deepseek v4渠道了吧 3 个帖子 - 3 位参与者 阅读完整话题
不过V4 pro 用量相对比较少。没有qwen3.6那么多。不过比官方应该便宜,今天用官方的api一次prompt干掉5块。现在这价格还是用不起。 15 个帖子 - 7 位参与者 阅读完整话题
大家好, 我准备尝试 DeepSeek V4 模型。请问我应该把它和 Claude Code 一起使用,还是和 Codex 一起使用?哪一个会更好?为什么? 感谢大家的时间。 English: Hi everyone, I am going to try the DeepSeek
1、CSA和HCA两种sparse attention 2、mHC 3、Muon优化器 4、GRPO+OPD 想问一下这次的engram去哪里了,没办法scale up? 1 个帖子 - 1 位参与者 阅读完整话题
DeepSeek v4好不好,到底有多好,和同行对比如何?一眼就能看出来。 连接不同大模型,给aipy任务提示词: 打开windows画图软件,控制鼠标,画一辆小汽车。接下来看图回答问题:谁的最丑?谁的最抽象?国外谁最好?国内谁最好?DeepSeek进步如何?谁进步最大? 答对有
from openai import OpenAI client = OpenAI( api_key="sk-", base_url="https://api.deepseek.com" ) response = client.chat.c
Chat 体感上慢,事实上貌似也慢 看 Nao 佬的报告 ,Flash 的平均耗时甚至都超过大多数模型了 Tokens 消耗是别家的两倍甚至三倍,不过看见那么长的思考输出好像就释然了 可能是纯算力的原因吗(thinking 1 个帖子 - 1 位参与者 阅读完整话题